今天介紹Person re-id的論文:
Self-similarity Grouping: A Simple Unsupervised Cross Domain Adaptation Approach for Person Re-identification
在訓練模型最常遇到的問題就是,在既有的training data上可以訓練良好(source domain),但到了應用場景(target domain)表現卻差強人意。
這種差距可以透過增加training data的多樣性來減輕。
但由於標註的大規模數據集獲取成本高,因此無監督領域自適應方法(UDA)成為一種most popular方法。
大部分previous work聚焦於augmentation或者domain adaptation,
而忽視了目標域訓練樣本中存在的相似自然特徵。
因此,作者提出了無監督自相似性分組(SSG)去挖掘整體到局部的潛在相似性。
SSG為目標域中每個person基於grouping的結果打上偽標籤,用已建立的偽標籤數據集對模型進行fine-tuning來挖掘這些自體相似性。
SSG流程:
先使用在ImageNet pretrain的模型,對目標域做一個特徵提取,
圖中藍色部分是全身部分提取,綠色黃色分別為上下半身提取。
然後對這3部分的圖做GAP,獲得相應的特徵向量ft, ft_up, ft_low
針對以上3個集合,作者採用無監督聚類方法,分別在3個集合中獲得一系列的group。針對每一張圖片,
我們可以獲得三個self-labels yt, yt_up, yt_low,因此我們可以構建一個新的目標域數據集Xt
接著使用triplet loss,他另外加上一層FC得到global embedding vector:ft_e,
所以總共有四個triplet loss terms
可以看到在跨domain的實驗中,SSG相對於其他方法,可以維持更好的準確度。